Telegram Group & Telegram Channel
⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование
git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.
Please open Telegram to view this post
VIEW IN TELEGRAM



tg-me.com/codeby_sec/9046
Create:
Last Update:

⚛️ Photon

Инструмент на Python, разработанный для автоматизации сбора информации и представляет собой веб-краулер, который извлекает данные с веб-сайтов. Имеет настраиваемую глубину сканирования, поддерживает различные фильтры и позволяет сохранять данные в удобном формате.

Photon начинает работу с корневого URL и следует по всем обнаруженным ссылкам до заданной глубины. Затем анализирует HTML-код каждой страницы, используя библиотеку BeautifulSoup и регулярные выражения и извлекает данные в структурированном виде.

🕷 Извлекает следующие данные во время обхода
⏺️URL-адреса с параметрами/без;
⏺️различную информацию (электронная почта, аккаунты в социальных сетях и т.д.);
⏺️файлы (pdf, png, xml и т.д.);
⏺️секретные ключи и токены (auth/API);
⏺️JavaScript файлы и присутствующие в них конечные точки;
⏺️строки, соответствующие пользовательскому шаблону регулярных выражений;
⏺️поддомены и данные, связанные с DNS.

📌 Установка и использование

git clone https://github.com/s0md3v/Photon.git
cd Photon
pip install -r requirements.txt


Сканирование заданного URL с глубиной поиска 2:
python3 photon.py -u https://example.com -l 2


Поддерживает следующие опции:
--timeout: количество секунд, в течение которых следует ожидать, прежде чем считать, что запрос HTTP(S) не выполнен;
--delay: количество секунд ожидания между каждым запросом;
--threads:
указание количества одновременных запросов;
--level:
ограничение на глубину рекурсии при сканировании;
--cookies, --user-agent:
добавление Cookie в каждый HTTP-запрос, пользовательские агенты;
--exclude:
URL, соответствующие указанному регулярному выражению, не будут сканироваться и не будут отображаться в результатах поиска;
--seeds:
пользовательские начальные URL;
--only-urls:
не извлекаются различные файлы, сканируется только целевая страница;
--regex
: указывается шаблон для извлечения строк во время сканирования;
--keys: поиск строк с высокой энтропией;
--dns:
сохраняет поддомены в файле subdomains.txt, а также генерирует изображение с данными DNS целевого домена;
--wayback: извлекает архивные URL-адреса с сайта archive.org и использует их в качестве начальных.

BY Codeby




Share with your friend now:
tg-me.com/codeby_sec/9046

View MORE
Open in Telegram


Codeby Pentest Telegram | DID YOU KNOW?

Date: |

That growth environment will include rising inflation and interest rates. Those upward shifts naturally accompany healthy growth periods as the demand for resources, products and services rise. Importantly, the Federal Reserve has laid out the rationale for not interfering with that natural growth transition.It's not exactly a fad, but there is a widespread willingness to pay up for a growth story. Classic fundamental analysis takes a back seat. Even negative earnings are ignored. In fact, positive earnings seem to be a limiting measure, producing the question, "Is that all you've got?" The preference is a vision of untold riches when the exciting story plays out as expected.

To pay the bills, Mr. Durov is issuing investors $1 billion to $1.5 billion of company debt, with the promise of discounted equity if the company eventually goes public, the people briefed on the plans said. He has also announced plans to start selling ads in public Telegram channels as soon as later this year, as well as offering other premium services for businesses and users.

Codeby Pentest from ye


Telegram Codeby
FROM USA